Штучний інтелект може стати потужним інструментом підвищення інформаційної грамотності, розвитку критичного мислення та забезпечення здатності громадян розрізняти достовірну інформацію в цифрову епоху.

Інструменти на базі ШІ здатні суттєво підвищити рівень інформаційної грамотності та критичного мислення з кількох напрямків:

1)розвиток критичного мислення, надаючи користувачам різні точки зору на ту чи іншу тему, змушуючи їх оцінювати різні точки зору та відточувати своє критичне мислення[1]; 2) розвиток навичок цифрової грамотності, навчаючи навичкам цифрової грамотності, таким як пошук, оцінка та синтез інформації [3]; 3) виховання цифрової громадянськості, забезпечуючи формування в користувачів навичок відповідального та поінформованого цифрового громадянина, здатного відрізняти достовірні джерела інформації від недостовірних[2].

Але окрім позитивних змін та нових можливостей для розвитку медіаграмотності населення, інструменти ШІ вже стали серйозним викликом. Дослідники вказують на те, що стрімкий розвиток технологій ШІ, їх проникнення в освітню сферу як ніколи раніше гостро ставлять етичні питання створення та розповсюдження цифрового контенту. «Штучний інтелект змінив традиційні способи навчання, тому вимагає від людини інформаційної грамотності. Етичний аспект інформаційної грамотності є основоположним з метою оцінки наслідків використання штучного інтелекту» [3].

Що ж, поговоримо про те, яким чином штучний інтелект вже змінив наше життя і ще його змінить в аспекті інформаційної грамотності, тобто, як ШІ може бути використаний для підвищення інформаційної грамотності.

Звичайно, питання дуже серйозне – адже ми розуміємо всі ті загрози в інформаційній безпеці, на які зараз наражаються практично всі країни світу, особливо Україна, Молдова, Грузія, Вірменія та інші країни Східного партнерства. Ми переживаємо великі зміни інформаційного простору, поширення фейкових новин та засилля пропаганди.

Як зазначається у доповіді ЮНЕСКО, «ChatGPT не має етичних принципів і не може відрізнити правду від упередженості чи правду від вигадки (“галюцинації”). Критичний аналіз і перехресні посилання інші джерела вкрай важливі під час використання його результатів» [1].

Власне, для ШІ не існує етичних понять «правда» і «неправда», його продукт – це просто згенерований текст, без будь-якого етичного «забарвлення». Про це йдеться в доповіді ЮНЕСКО і про це ми повинні пам’ятати, коли говоримо про використання ШІ в освіті зокрема і контент в мережі Інтернет взагалі. За деякими оцінками, вже за кілька років кількість контенту в Інтернеті, згенерованого ШІ, сягне 80-90 відсотків від усього обсягу. Кількість згенерованої інформації зростає кожну секунду і поки люди сплять, гуляють, розважаються, ШІ генерує, генерує, генерує… Без втоми та без перерви, причому вже не лише текст, а й зображення та відео.

З цього приводу нас цікавить позиція сервісів-пошуковиків, наприклад такого великого як Google. У релізі компанії від 8 лютого 2023 року йдеться: «Якість контенту для нас набагато важливіша за те, яким чином він створений. Саме завдяки цьому ми протягом багатьох років надаємо користувачам надійну та якісну інформацію. Штучний інтелект пропонує новий рівень самовираження та творчості, а також допомагає людям створювати чудовий контент для Інтернету» [4].

Тобто для себе етичну таку проблему вирішили в Google таким чином: поки стандарти, на яких базується контент Google (досвід, компетентність, авторитетність і достовірність) не страждають, то з контентом, згенерованим ШІ можна миритися.

Але, звичайно ж, і великі корпорації, і звичайні користувачі все частіше замислюються над тим, що потрібно зробити, щоб не допустити зниження якості контенту. Цьому присвячені численні дослідження у галузі правового регулювання такого контенту, що виходить за межі теми нашої лекції. Ну а поки що існує рекомендація вказувати (маркувати) контент, якщо при його створенні брав участь ШІ. Погодьтеся, це дуже важливо, але визначення достовірності контенту цього явно недостатньо. Також важливим є те зауваження, що якщо при створенні тексту ви використовували штучний інтелект, Google рекомендує вказати на це, хоча поки це не є обов’язковим.

Яким чином штучний інтелект може допомогти у визначенні достовірності інформації, в тому числі і згенерованої за допомогою ШІ? Напевно, для початку ми повинні створити попередні умови для цього, спеціально навчаючи ШІ. Сам собою ШІ нічого не «знає» у звичному для людини розумінні, він просто оперує закладеним у нього масивом даних. Якщо в ШІ вкласти масив, де розповідається про плоску Землю, то машина сприйме це як «правду» і її відтворюватиме при будь-якій нагоді. Тобто запит на коректність даних ставить перед тими, хто навчає ШІ складне завдання – зробити вибір даних, які є правдивими. Навіть у технічних науках є складнощі, якщо говорити про останні ще не перевірені гіпотези, а що вже й говорити про суспільні науки, де існує безліч різних підходів до інтерпретації тих самих подій.

Декілька ШІ-інструментів, які допоможуть вам з пошуком інформації в Google:

perplexity.ai – цей сервіс працює як СһатԌРТ, якому ви можете поставити запитання будь-якою мовою та отримайте відповідь з посиланнями на джерела. Сервіс працює онлайн, не вимагає реєстрації та безкоштовний.

chat.openai.com – ChatGPT стане вашим добрим партнером у пошуку ключових слів. Просто напишіть, що саме вам потрібно знайти і нейромережа видасть вам відповідний запит.

chatpdf.com – швидко та легко аналізує будь-які файли у форматі PDF. Якщо вам потрібно вивчити документ іноземною мовою, завантажте його та почніть ставити запитання своєю мовою. Чат-бот надаватиме відповіді на основі інформації з файлу і навіть покаже номер сторінки.

gpt4all.io – працює і без підключення до інтернету. Можете перевірити себе: ставте запитання про свою роботу: завантажте текстовий документ і запитайте, про що ваш текст.

Визначення того, чи створено контент людиною чи ШІ
Текст

Як ми вже відзначили лише той факт, що контент створений ШІ, особливо якщо ми говоримо про текст, не є підставою вважати інформацію фейковою. Та й зображення та відео можуть бути ілюстративними, ми ж фейковими не називаємо картини чи художні фільми. Але, звичайно, якщо той же текст був створений з використанням ШІ, а автор про це замовчав, може бути підставою провести додаткову перевірку цього контенту. Адже, якщо контент етичний, то навіщо приховувати тонкощі його створення?

У справі визначення того, написаний текст людиною чи згенерований ШІ існує кілька інструментів, створених на базі того ж ШІ. Але якість роботи цих інструментів залишають бажати кращого. По-перше, поки вони найкраще працюють з англомовними ресурсами і аналізують англійський текст. По-друге, вони самі вказують на точність своєї діагностики в межах від 26 до 80%, що погодьтеся дуже неточно для серйозної експертизи.

На сьогоднішній день існує кілька популярних сервісів визначення оригінальності (тобто того, що створено людиною) текстів. Кількість та якість цих сервісів збільшується з кожним днем. Один з таких сервісів – GPT Detector [5].

Якщо ви не впевнені, що перед вами оригінальний “людський” контент, то GPT Detector допоможе вам розібратися. Скопіюйте та вставте текст у інструмент і натисніть Check (Перевірити) – у відповідь відобразиться відсоток ймовірності того, що контент був згенерований за допомогою GPT-3, GPT-4 або ChatGPT. Визначає: GPT-3, GPT-4.

GPT Detector визначив, що текст пісні My way, написаний Полом Анкою для Френка Сінатри, лише на 2 % схожий на згенерований контент

Інші послуги також можуть допомогти розібратися з походженням контенту. AI Content Detector перевіряє до 1,5 тис. знаків [6]. Вставте вміст або посилання на нього у відповідні поля та натисніть Analyze text (Аналізувати текст).

Сервіс AI Content Detector з упевненістю в 100% визначив, що текст пісні “My way” створений людиною і ще оцінив “Fantastic!”.

Виходячи з описаного, можна сформулювати рекомендації – як визначити контент, створений нейромережею:

Шукайте мовні невідповідності та некоректну мову написання

Перевірте, чи немає повторюваних конструкцій та шаблонів

Ще один спосіб розпізнати шаблонні конструкції – використовувати антиплагіат-програми. Проте, треба розуміти, що текст із конструкціями, що повторюються, — не одно згенерований нейромережею текст.

Проаналізуйте джерела та цитати

Подивіться контекст того, про що текст

І все-таки – чи безпечно використовувати тексти, згенеровані ШІ? Напевно, не більше ніж безпечно використовувати тексти, створені людиною. Адже поряд із корисними та чіткими інструкціями ШІ може на підставі своїх даних дати і неправильну інформацію. До того ж сервісами ШІ (тим самим Chat GPT) часто не проводиться фактчекінг, і не надаються дані про джерела.

У соцмережах українського телеканалу у травні 2023 року було опубліковано біографічний нарис письменника Олеся Гончара [7]. При цьому використовувалися справжні архівні фотографії з життя письменника, а текст був згенерований ШІ та з такими невідповідностями історичної правди, що телеканалу довелося вибачитися перед аудиторією.
Отже, питання про точність згенерованих текстів стоїть дуже гостро. Особливо це актуально для тих, які належать до категорії YMYL (Your Money or Your Life), — медицина, здоров’я, фінанси.

Але визначенням лише того, чи створений текст людиною чи ШІ, ми, звичайно ж, не обмежимося. Адже як людина може створювати фейкові новини, так і ШІ генерувати цілком реалістичні та правдиві тексти. Принаймні, кухонні рецепти ChatGPT генерує непогано)

Для полегшення роботи журналістам та визначення фейкових текстів (особливо – англомовних) було створено сервіс Factiverse [8].

Factiverse – проект на основі ШІ, який журналісти можуть використовувати для прискорення процесу перевірки фактів. Проект створений на основі дослідження, проведеного в Університеті Ставангера, і включає ШІ-редактор (AI Editor), який знаходить дезінформацію в контенті і пропонує ресурси, що заслуговують на довіру, фактчекінгову базу даних FactiSearch і інструмент Microfacts, який допомагає знаходити необхідний контекст і пояснює жаргонізми та професійні терміни.

За допомогою сервісу Factiverse ми перевірили інформацію мережі EENCE про початок роботи “Освітнього Каравану” в Україні. Сервіс визначив, що з трьох проаналізованих речень у тексті немає спірних тверджень з позиції фактчекінгу.

Вже кілька років позитивно зарекомендували себе fact-checking сервіси, які зараз використовують різні технології, включаючи ШІ, для перевірки правдивості інформації. Ось деякі з них:

Snopes: Це один із найстаріших та найвідоміших сервісів для перевірки фактів, який аналізує міські легенди, плітки та інші заяви, щоб визначити їх правдивість[9].

FactCheck.org: Цей незалежний сервіс зосереджений на перевірці заяв політиків та політичної реклами у США[10].

PolitiFact: Це проект від Tampa Bay Times, який перевіряє заяви американських політиків за допомогою системи Truth-O-Meter[11].

BBC Reality Check: Цей сервіс BBC аналізує факти та заяви в новинах, щоб допомогти читачам розібратися в правдивості інформації[12].

Full Fact: Це британська незалежна організація, яка перевіряє факти в новинах та заявах політиків[13].

Ці послуги використовують комбінацію традиційних журналістських методів та сучасних технологій, включаючи ШІ, для перевірки та аналізу інформації.

Зображення

В’єтнамський художник, більш відомий як Бен Моран, наприкінці минулого року потрапив у неприємну історію – його обкладинку до фентезі-роману модератори однієї великої арт-спільноти позначили як створену ШІ [14]. Художник у результаті довів свою правоту і навів докази автентичності роботи, яку витратив понад 500 годин.

Але не лише художники зараз мають головний біль від “творчості” ШІ. Доступність технологій дозволила мільйонам користувачів втілювати свої фантазії щодо відомих особистостей. Одним із найбільш незабутніх (і відносно нешкідливих) фейкових зображень 2023 стало вбрання Папи Римського Франциска в білий пуховик.

Сучасна модна “цибуля” Папи зібрала мільйони захоплених відгуків

Зображення швидко стало вірусним [15] і лише за деякими дрібними деталями вдалося визначити, що картинка була створена сервісом ШІ.

При детальному розгляді зображення видно, що рука персонажа недостатньо чітко промальована, на розп’ятті відсутні правильні прямі кути, а край лінзи окулярів переходить на тінь.

Після цього випадку і після поширення фото арешту колишнього Президента США Дональда Трампа сервіс MidJourney оголосив про перехід на платний доступ [16], але, погодьтеся, ціна в 10 доларів щомісячного абонементу не зможе стати серйозним бар’єром для тих, кому дуже хочеться генерувати фейки . І все ж успіх поширення подібних фейків лежить не стільки в реалістичності зображення (ще поки є багато нюансів, що дозволяють визначити картинку, згенеровану ШІ), скільки у сфері соціальної психології. Люди хочуть побачити щось очікуване. Або навпаки – щось незвичайне. І готові повірити у візуалізацію. Тому для визначення, фейк перед нами (згенероване ШІ зображення апріорі не є реальністю), знадобляться старі-добрі вміння фактчекінгу, описані раніше в багатьох посібниках [17] .

Для визначення, згенерована перед вами картинка чи ні, створено сервіс AI або NOT [18] . Однак сервіс має деякі обмеження, пов’язані з алгоритмом його роботи. Справа в тому, що сервіс “знає” алгоритми малювання різних програм і “зчитує” машинний алгоритм із зображення, включаючи і невидимі для ока водяні знаки, мітки та інші можливі специфічні ознаки згенерованого контенту. Але варто нам запропонувати сервісу для аналізу скрін або фото згенерованого зображення, як сервіс втрачається – вважати алгоритм він не може, специфічних міток не бачить.

Сервіс не зміг відповідати, коли ми завантажили йому популярне зображення фейкового арешту Дональда Трампа (картинку ми взяли з сайту новин).

І все-таки існують поки що деякі недоліки в алгоритмах ШІ, завдяки яким при детальному розгляді можна визначити, фейкове це зображення чи ні. Але робити це доведеться вручну, як показав приклад вище, немає ще досить розвинених сервісів на базі ШІ визначення фейкових зображень. Поки що ні.

Тому все ще головним інструментом для перевірки фото та відео залишається зворотний пошук зображень у різних системах: TinEye, Google Lens, Bing. Іноді доводиться шукати і Yandex, особливо якщо потрібно знайти інформацію в російськомовному сегменті. Часто завдяки такому пошуку вдається знайти першоджерело чи хоча б підказки, де продовжити перевірку.

При аналізі зображень, імовірно створених ШІ, можна надати такі рекомендації:

1. Збільшити масштаб та уважно розглянути деталі
2. Знайти джерело зображення
3. Звернути увагу на пропорції тіла
4. Пам’ятати та бачити типові помилки ШІ
5. Чи не здається зображення неприродним
6. Вивчити фон зображення

Deepfakes

Що таке “глибокі підробки” (deepfakes)? Це маніпульовані відео чи аудіозаписи, які виглядають та звучать реалістично. Такі фейки вже не такі нешкідливі, як нове вбрання Папи, а під час суспільних потрясінь і війни взагалі можуть призвести до непередбачуваних наслідків.

Ось, наприклад, фейковий “Макрон” розважається під час протестів у Парижі [19], причому фотографії зібрані у фотоколаж, зображуючи щось на кшталт відео.

Різні фотографії Макрона “в дії” створили ефект реальної участі Президента Франції у масових заворушеннях у Парижі

Але цей випадок можна віднести швидше до розіграшу, ніж до серйозної дискредитації політика. А ось відео з фейковим Зеленським [20], зроблене під час спроб провести перші переговори у березні 2022 року, викликало мало сміху. Влада України навіть змушена була попередити, що на тлі переговорів з Росією таких підробок може з’являтися все більше.

На основі ШІ розвивається і інструментарій для визначення фейкових відео – напевно, найскладнішого завдання для фактчекерів і раніше і сьогодні. Ось лише деякі з них.

Truepic [21] – інструмент, який дозволяє журналістам перевіряти автентичність візуального контенту. Truepic Display знаходить інформацію про джерело та історію будь-якого медіафайлу, а Truepic Lens — метадані будь-якого файлу.

YouTube DataViewer [22]. Створений організацією Amnesty International інструмент YouTube DataViewer допомагає витягувати метадані будь-якого відео, викладеного на YouTube. Він також дозволяє користувачам знаходити тамбнейли відео та робити зворотній пошук за зображенням.

Соціальні мережі

Оскільки кожна соціальна мережа має особливий алгоритм поширення інформації, то для пошуку інформації в них необхідно використовувати окремі інструменти для кожної соцмережі. Через величезний обсяг оброблюваної інформації, звичайно ж, ці інструменти використовують ШІ. Також для відстеження неприйнятного контенту все частіше використовується ШІ, що на початку застосування цих технологій призводило до деяких навіть курйозних ситуацій.

Специфічна лексика шахістів, де вони грають “чорними” та “білими” призвела до блокування YouTube каналу. Як повідомила dailymail.co.uk, алгоритм ШІ розглянув у частому вживанні цих слів… расизм[23].
Що ж до інструментів для аналізу соцмереж, то таким є Botometer від OSoMe [24]. Botometer – проект, створений Обсерваторією соціальних мереж (OSoMe) при Університеті Індіани. Цей інструмент виставляє бали обліковим записам Twitter: 0 балів означає обліковий запис, який веде людина, а 5 балів — обліковий запис. Інструмент також сортує типи ботів за категоріями: луна-камера, фейковий фоловер, фінансовий бот, розповсюджувач спаму та інші.

Hoaxy [25] – мобільний додаток, який відстежує поширення дезінформації на низькосортних сайтах, створених людьми. Цей інструмент допомагає журналістам відстежити шлях статей у віртуальному світі. Він також оцінює ймовірність того, що у розповсюдженні цих статей брали участь боти або автоматизація.

Замість висновків

Якісь висновки, напевно, робити ще рано. Ми (як і технології ШІ) знаходимося тільки на початку шляху, цікавого та небезпечного змагання вірусів та антивірусів, щитів та стріл. ШІ як універсальний інструмент може використовуватися і для генерації фейків і їх викриття. Все залежить від людини – як люди сприймають інформацію, чи готові вони себе захистити, коли хитрощі дезінформації та пропаганди стають дедалі витонченішими. Зараз важко зробити будь-які прогнози, але ж зараз із упевненістю можна сказати, що така важлива компетенція як медіаграмотність особливо затребувана в XXI столітті.

Онлайн-курс

Цю статтю можна знайти як одну із 10 лекцій у безкоштовному онлайн-курсі «Штучний інтелект для громадянської освіти». Усі, хто успішно завершить курс, гарантовано отримають сертифікат із 1 кредитом ECTS.

Курс розроблений командою проекту “Штучний інтелект як інструмент виховання громадянськості”, який став одним із переможців конкурсу ідей EENCE у 2023 році. Курс доступний на сайті https://online.eence.eu/course/view.php?id=31.

Проект “Штучний інтелект як інструмент громадянської освіти” реалізується в рамках діяльності Східно-Європейської мережі громадянської освіти (EENCE) за підтримки Федерального агентства з цивільної освіти (bpb) коштом Міністерства закордонних справ Німеччини.

 

Автор: Сергій Штурхецький, голова Незалежної медіа-профспілки України, кандидат наук державного управління, доцент (Україна)

Джерело: АУП